8 research outputs found
LiDAR-based Semantic Labeling : Automotive 3D Scene Understanding
Mobile Roboter und autonome Fahrzeuge verwenden verschiedene SensormodalitĂ€ten zur Erkennung und Interpretation ihrer Umgebung. Neben Kameras und RaDAR Sensoren reprĂ€sentieren LiDAR Sensoren eine zentrale Komponente fĂŒr moderne Methoden der Umgebungswahrnehmung. ZusĂ€tzlich zu einer prĂ€zisen Distanzmessung dieser Sensoren, ist ein umfangreiches semantisches SzeneverstĂ€ndnis notwendig, um ein effizientes und sicheres Agieren autonomer Systeme zu ermöglichen.
In dieser Arbeit wird das neu entwickelte LiLaNet, eine echtzeitfĂ€hige, neuronale Netzarchitektur zur semantischen, punktweisen Klassifikation von LiDAR Punktwolken, vorgestellt. HierfĂŒr finden die AnsĂ€tze der 2D Bildverarbeitung Verwendung, indem die 3D LiDAR Punktwolke als 2D zylindrisches Bild dargestellt wird. Dadurch werden Ergebnisse moderner AnsĂ€tze zur LiDAR-basierten, punktweisen Klassifikation ĂŒbertroffen, was an unterschiedlichen DatensĂ€tzen demonstriert wird.
Zur Entwicklung von AnsÀtzen des maschinellen Lernens, wie sie in dieser Arbeit verwendet werden, spielen umfangreiche DatensÀtze eine elementare Rolle. Aus diesem Grund werden zwei DatensÀtze auf Basis von modernen LiDAR Sensoren erzeugt. Durch das in dieser Arbeit entwickelte automatische Verfahren zur Datensatzgenerierung auf Basis von mehreren SensormodalitÀten, speziell der Kamera und des LiDAR Sensors, werden Kosten und Zeit der typischerweise manuellen Datensatzgenerierung reduziert.
ZusĂ€tzlich wird eine multimodale Datenkompression vorgestellt, welche ein Kompressionsverfahren der Stereokamera auf den LiDAR Sensor ĂŒbertrĂ€gt. Dies fĂŒhrt zu einer Reduktion der LiDAR Daten bei gleichzeitigem Erhalt der zugrundeliegenden semantischen und geometrischen Information. Daraus resultiert eine erhöhte EchtzeitfĂ€higkeit nachgelagerter Algorithmen autonomer Systeme.
AuĂerdem werden zwei Erweiterungen zum vorgestellten Verfahren der semantischen Klassifikation umrissen. Zum einen wird die SensorabhĂ€ngigkeit durch EinfĂŒhrung des PiLaNets, einer neuen 3D Netzarchitektur, reduziert indem die LiDAR Punktwolke im 3D kartesischen Raum belassen wird, um die eher sensorabhĂ€ngige 2D zylindrische Projektion zu ersetzen. Zum anderen wird die Unsicherheit neuronaler Netze implizit modelliert, indem eine Klassenhierarchie in den Trainingsprozess integriert wird.
Insgesamt stellt diese Arbeit neuartige, performante AnsĂ€tze des 3D LiDAR-basierten, semantischen Szeneverstehens vor, welche zu einer Verbesserung der Leistung, ZuverlĂ€ssigkeit und Sicherheit zukĂŒnftiger mobile Roboter und autonomer Fahrzeuge beitragen
Fully Convolutional Neural Networks for Dynamic Object Detection in Grid Maps
Grid maps are widely used in robotics to represent obstacles in the
environment and differentiating dynamic objects from static infrastructure is
essential for many practical applications. In this work, we present a methods
that uses a deep convolutional neural network (CNN) to infer whether grid cells
are covering a moving object or not. Compared to tracking approaches, that use
e.g. a particle filter to estimate grid cell velocities and then make a
decision for individual grid cells based on this estimate, our approach uses
the entire grid map as input image for a CNN that inspects a larger area around
each cell and thus takes the structural appearance in the grid map into account
to make a decision. Compared to our reference method, our concept yields a
performance increase from 83.9% to 97.2%. A runtime optimized version of our
approach yields similar improvements with an execution time of just 10
milliseconds.Comment: This is a shorter version of the masters thesis of Florian Piewak and
it was accapted at IV 201
On the Calibration of Uncertainty Estimation in LiDAR-based Semantic Segmentation
The confidence calibration of deep learning-based perception models plays a
crucial role in their reliability. Especially in the context of autonomous
driving, downstream tasks like prediction and planning depend on accurate
confidence estimates. In point-wise multiclass classification tasks like
sematic segmentation the model has to deal with heavy class imbalances. Due to
their underrepresentation, the confidence calibration of classes with smaller
instances is challenging but essential, not only for safety reasons. We propose
a metric to measure the confidence calibration quality of a semantic
segmentation model with respect to individual classes. It is calculated by
computing sparsification curves for each class based on the uncertainty
estimates. We use the classification calibration metric to evaluate uncertainty
estimation methods with respect to their confidence calibration of
underrepresented classes. We furthermore suggest a double use for the method to
automatically find label problems to improve the quality of hand- or
auto-annotated datasets.Comment: accepted at IEEE ITSC 202
Survey on LiDAR Perception in Adverse Weather Conditions
Autonomous vehicles rely on a variety of sensors to gather information about
their surrounding. The vehicle's behavior is planned based on the environment
perception, making its reliability crucial for safety reasons. The active LiDAR
sensor is able to create an accurate 3D representation of a scene, making it a
valuable addition for environment perception for autonomous vehicles. Due to
light scattering and occlusion, the LiDAR's performance change under adverse
weather conditions like fog, snow or rain. This limitation recently fostered a
large body of research on approaches to alleviate the decrease in perception
performance. In this survey, we gathered, analyzed, and discussed different
aspects on dealing with adverse weather conditions in LiDAR-based environment
perception. We address topics such as the availability of appropriate data, raw
point cloud processing and denoising, robust perception algorithms and sensor
fusion to mitigate adverse weather induced shortcomings. We furthermore
identify the most pressing gaps in the current literature and pinpoint
promising research directions.Comment: published at IEEE IV 202